- 深度学习有哪些应用
- 图像:图像识别、物体识别、图片美化、图片修复、目标检测。
- 自然语言处理:机器创作、个性化推荐、文本分类、翻译、自动纠错、情感分析。
- 数值预测、量化交易
- 什么是神经网络
我们以房价预测的案例来说明一下,把房屋的面积作为神经网络的输入(我们称之为 𝑥),通过一个节点(一个小圆圈),最终输出了价格(我们用 𝑦 表示)。其实这个小圆圈就是一个单独的神经元,就像人的大脑神经元一样。如果这是一个单神经元网络,不管规模大小,它正是通过把这些单个神经元叠加在一起来形成。如果你把这些神经元想象成单独的乐高积木,你就通过搭积木来完成一个更大的神经网络。
神经网络与大脑关联不大。这是一个过度简化的对比,把一个神经网络的逻辑单元和右边的生物神经元对比。至今为止其实连神经科学家们都很难解释,究竟一个神经元能做什么。
2.1 什么是感知器
这要从逻辑回归讲起,我们都知道逻辑回归的目标函数如下所示:
%3D%5Cfrac%7B1%7D%7B1%2Be%5E%7B-z%7D%7D>)
我们用网络来表示,这个网络就叫做感知器:
如果在这个感知器的基础上加上隐藏层,就会得到下面我们要说的神经网络结构了。
2.2 神经网络的结构
神经网络的一般结构是由输入层、隐藏层 (神经元)、输出层构成的。隐藏层可以是 1 层或者多层叠加,层与层之间是相互连接的,如下图所示。
一般说到神经网络的层数是这样计算的,输入层不算,从隐藏层开始一直到输出层,一共有几层就代表着这是一个几层的神经网络,例如上图就是一个三层结构的神经网络。
解释隐藏层的含义: 在一个神经网络中,当你使用监督学习训练它的时候,训练集包含了输入 𝑥 也包含了目标输出 𝑦,所以术语隐藏层的含义是在训练集中,这些中间结点的准确值我们是不知道到的,也就是说你看不见它们在训练集中应具有的值。
- 多隐藏层的神经网络比 单隐藏层的神经网络工程效果好很多。
- 提升隐层层数或者隐层神经元个数,神经网络 “容量” 会变大,空间表达力会变强。
- 过多的隐层和神经元节点,会带来过拟合问题。
- 不要试图通过降低神经网络参数量来减缓过拟合,用正则化或者 dropout。
2.3 为什么神经网络具有非线性切分能力
假设对下图进行分类,圆圈为一类,红叉叉为另一类,如果用线性切分的话无论如何都不能把它们进行分开。
这时,引入神经网络 (2 层神经网络),包含一个隐藏层,在隐藏层中, 分别得到了 P1 和 P2 的图形,P1 这条线以上的部分都是红叉叉,P2 这条线以下的部分都是红叉叉,两个神经元就有 2 条线性直线。从隐藏层到输出层要做的事情就是把这两条直线给合并起来,就会得到 h(x) 的图形,也就是说 P1 以上的空间交上 P2 以下的空间就是红叉叉的分类,其余空间分类为圆圈。这就使得原本不能够线性切分变成非线性切分了。
如果隐藏层更加复杂的话,就能够完美的实现复杂平面样本点分布的划分 (类似于抠图),如下图所示:
- 神经网络的计算过程
3.1 计算过程
如下图所示。用圆圈表示神经网络的计算单元,逻辑回归的计算有两个步骤,首先你按步骤计算出 𝑧,然后在第二 步中你以 sigmoid 函数为激活函数计算 𝑧(得出 𝑎),一个神经网络只是这样子做了好多次重复计算。
其中的一个神经元计算如下图所示:
向量化计算,如果你执行神经网络的程序,用 for 循环来做这些看起来真的很低效。所以接下来我们要做的就是把这四个等式向量化。向量化的过程是将神经网络中的一层神经元参数纵向堆积起来,例如隐藏层中的 𝑤 纵向堆积起来变成一个 (4,3) 的矩阵,用符号 𝑊[1]表示。另一个看待这个的方法是我们有四个逻辑回归单元,且每一个逻辑回归单元都有相对应的参数——向量 𝑤,把这四个向量堆积在一起,你会得出这 4×3 的矩阵。
上面公式表示的是一个样本的向量化计算,那么多样本向量化计算其实就是在上面公式的基础上再增列数,每一列相当于一个样本。
3.2 随机初始化模型参数
在神经⽹络中,通常需要随机初始化模型参数。下⾯我们来解释这样做的原因。
假设输出层只保留⼀个输出单元 _o_1(删去 _o_2 和 _o_3 以及指向它们的箭头),且隐藏层使⽤相同的激活函数。如果将每个隐藏单元的参数都初始化为相等的值,那么在正向传播时每个隐藏单元将根据相同的输⼊计算出相同的值, 并传递⾄输出层。在反向传播中,每个隐藏单元的参数梯度值相等。因此,这些参数在使⽤基于梯度的优化算法迭代后值依然相等。之后的迭代也是如此。
在这种情况下,⽆论隐藏单元有多少, 隐藏层本质上只有 1 个隐藏单元在发挥作⽤。因此,正如在前⾯的实验中所做的那样,我们通常将神经⽹络的模型参数,特别是权重参数,进⾏随机初始化。
有两种初始化方法:
采用正态分布的随机初始化方法。
Xavier 初始化方法:假设某全连接层的输入个数为 a,输出个数为 b,Xavier 随机初始化将使该层中权重参数的每个元素都随机采样于均匀分布:
初始化后,每层输出的方差不会受该层输入个数的影响,且每层梯度的方差也不受该层输出个数的影响。
3.3 激活函数
3.3.1 激活函数有哪些
在隐层接一个线性变换后 ,再接一个非线性变换 (如 sigmoid),这个非线性变换叫做传递函数或者激活函数。上面的例子用的都是逻辑回归的 Sigmoid 激活函数,如果还不明白激活函数在哪,可以看下面这幅图。
sigmoid 函数
%3D%5Cfrac%7B1%7D%7B1%2Be%5E%7B-z%7D%7D>)
%5E%7B’%7D%3D%5Cfrac%7Bd%7D%7Bdz%7Dg(z)%3D%5Calpha(1-%5Calpha)>)
tanh(双曲正切) 函数
事实上,tanh 函数是 sigmoid 的向下平移和伸缩后的结果。对它进行了变形后,穿过了 (0,0) 点,并且值域介于 + 1 和 - 1 之间。但有一个例外:在二分类的问题中,对于输出层,因为 𝑦 的值是 0 或 1,所以想让 𝑦^ 的数值介于 0 和 1 之间,而不是在 - 1 和 + 1 之间。所以需要使用 sigmoid 激活函数。
%3Dtanh(z)%3D%5Cfrac%7Be%5Ez-e%5E%7B-z%7D%7D%7Be%5Ez%2Be%5E%7B-z%7D%7D>)
%5E%7B’%7D%3D%5Cfrac%7Bd%7D%7Bdz%7Dg(z)%3D1-(tanh(z))%5E2>)
sigmoid 函数和 tanh 函数两者共同的缺点是,在 𝑧 特别大或者特别小的情况下,导数的梯度或者函数的斜率会变得特别小,最后就会接近于 0,导致降低梯度下降的速度。
ReLu(修正线性单元) 函数
只要 𝑧 是正值的情况下,导数恒等于 1,当 𝑧 是负 值的时候,导数恒等于 0。
>)
%7B’%7D%3D%5Cleft%5C%7B%0A%5Cbegin%7Baligned%7D%0A0%20%26%20%20%26%20if%20z%20%3C%200%20%5C%5C%0A1%20%26%20%20%26%20if%20z%20%3E%200%20%5C%5C%0Aundefined%20%26%20%20%26%20if%20z%20%3D0%0A%5Cend%7Baligned%7D%0A%5Cright.>)
这有一些选择激活函数的经验法则: 如果输出是 0、1 值(二分类问题),则输出层选择 sigmoid 函数,然后其它的所有单 元都选择 Relu 函数。
softmax 激活函数
- 非线性变换之前计算:
%7D%3DW%5E%7B(l)%7Da%5E%7B(l-1)%7D%2Bb%5E%7B(l)%7D>)
- 经过非线性变换,临时变量:
%7D%7D>)
归一化
表示的就是第几个类别的概率值,这些概率值和为 1
之前,我们的激活函数都是接受单行数值输入,例如 Sigmoid 和 ReLu 激活函数,输入一个实数,输出一个实数。Softmax 激活函数的特殊之处在于,因为需要将所有可能的输出归一化,就需要输入一个向量,最后输出一个向量。
hardmax 函数会观察 𝑧 的元素,然后在 𝑧 中最大元素的位置放上 1,其它位置放上 0,Softmax 所做的从 𝑧 到这些概率的映射更为温和。
Softmax 回归将 logistic 回归推广到了两种分类以上。
- 非线性变换之前计算:
3.3.2 优缺点
- 在 𝑧 的区间变动很大的情况下,激活函数的导数或者激活函数的斜率都会远大于 0,在程序实现就是一个 if-else 语句,而 sigmoid 函数需要进行浮点四则运算,在实践中,使用 ReLu 激活函数神经网络通常会比使用 sigmoid 或者 tanh 激活函数学习的更快。
- sigmoid 和 tanh 函数的导数在正负饱和区的梯度都会接近于 0,这会造成梯度弥散,而 Relu 和 Leaky ReLu 函数大于 0 部分都为常数,不会产生梯度弥散现象。(同时应该注意到的是,Relu 进入负半区的时候,梯度为 0,神经元此时不会训练,产生所谓的稀疏性,而 Leaky ReLu 不会有这问题) 𝑧 在 ReLu 的梯度一半都是 0,但是,有足够的隐藏层使得 z 值大于 0,所以对大多数的 训练数据来说学习过程仍然可以很快。
3.3.3 为什么使用激活函数
如果你使用线性激活函数或者没有使用一个激活函数,那么无论你的神经网络有多少层一直在做的只是计算线性函数,所以不如直接去掉全部隐藏层。在我们的简明案例中,事实证明如果你在隐藏层用线性激活函数,在输出层用 sigmoid 函数,那么这个模型的复杂度和没有任何隐藏层。的标准 Logistic 回归是一样的。
在这里线性隐层一点用也没有,因为这两个线性函数的组合本身就是线性函数,所以除非你引入非线性,否则你无法计算更有趣的函数,即使你的网络层数再多也不行。
3.3.4 人工神经网络中为什么 ReLu 要好过于 tanh 和 sigmoid function?
- 采用 sigmoid 等函数,算激活函数时(指数运算),计算量大,反向传播求误差梯度时,求导涉及除法和指数运算,计算量相对大,而采用 Relu 激活函数,整个过程的计算量节省很多。
- 对于深层网络,sigmoid 函数反向传播时,很容易就会出现梯度消失的情况(在 sigmoid 接近饱和区时,变换太缓慢,导数趋于 0,这种情况会造成信息丢失),这种现象称为饱和,从而无法完成深层网络的训练。而 ReLU 就不会有饱和倾向,不会有特别小的梯度出现。
- Relu 会使一部分神经元的输出为 0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生(以及一些人的生物解释 balabala)。当然现在也有一些对 relu 的改进,比如 prelu,random relu 等,在不同的数据集上会有一些训练速度上或者准确率上的改进,具体的大家可以找相关的 paper 看。
3.3.5 激活函数有哪些性质?
- 非线性: 当激活函数是线性的,一个两层的神经网络就可以基本上逼近所有的函数。但如果激活函数是恒等激活函数的时候,即
%3Dx>),就不满足这个性质,而且如果 MLP 使用的是恒等激活函数,那么其实整个网络跟单层神经网络是等价的;
- 可微性: 当优化方法是基于梯度的时候,就体现了该性质;
- 单调性: 当激活函数是单调的时候,单层网络能够保证是凸函数;
%E2%89%88x>): 当激活函数满足这个性质的时候,如果参数的初始化是随机的较小值,那么神经网络的训练将会很高效;如果不满足这个性质,那么就需要详细地去设置初始值;
- 输出值的范围: 当激活函数输出值是有限的时候,基于梯度的优化方法会更加稳定,因为特征的表示受有限权值的影响更显著;当激活函数的输出是无限的时候,模型的训练会更加高效,不过在这种情况小,一般需要更小的 Learning Rate。
3.4 正向传播
正向传播 (forward-propagation) 是指对神经网络沿着从输入层到输出层的顺序,依次计算并存储模型的中间变量(包括输出)。
逻辑回归的计算步骤:所以回想当时我们讨论逻辑回归的时候,我们有这个正向传播步骤,其中我们计算 𝑧,然后 𝑎,然后损失函数 𝐿。 正向传播类似,计算,
,再计算
,
,最后得到 loss function。
%7D%5CRightarrow%7BL(a%2Cy)%7D>)
3.5 反向传播 (BP)
反向传播 (back-propagation) 指的是计算神经网络参数梯度的方法。总的来说,反向传播依据微积分中的链式法则,沿着从输出层到输入层的顺序,依次计算并存储目标函数有关神经网络各层的中间变量以及参数的梯度。
由正向传播经过所有的隐藏层到达输出层,会得到一个输出结果,然后根据这个
带入 loss funcation 中,利用 SGD 算法进行最优化求解,其中每次梯度下降都会使用一次 BP 来更新各个网络层中的参数值,这就是 BP 回传误差的意思。
- 正向传播求损失,BP 回传误差。
- 根据误差信号修正每层的权重。对各个 w 进行求导,然后更新各个 w。
- 链式依赖损失函数:
))>)
3.6 随机梯度下降法 (SGD)
3.6.1 mini-batch 梯度下降
你可以把训练集分割为小一点的子集训练,这些子集被取名为 mini-batch,假设每一个子集中只有 1000 个样本,那么把其中的 𝑥 (1) 到 𝑥 (1000) 取出来,将其称为第一个子训练集,也叫做 mini-batch,然后你再取出接下来的 1000 个样本,从 𝑥 (1001) 到 𝑥 (2000),然后再取 1000 个样本,以此类推。
在训练集上运行 mini-batch 梯度下降法,你运行 for t=1……5000,因为我们有 5000 个各有 1000 个样本的组,在 for 循环里你要做得基本就是对 𝑋 {𝑡} 和 𝑌 {𝑡} 执行一步梯度下降法。
- batch_size=1,就是 SGD。
- batch_size=n,就是 mini-batch
- batch_size=m,就是 batch
其中 1<n<m,m 表示整个训练集大小。
优缺点:
- batch:相对噪声低些,幅度也大一些,你可以继续找最小值。
- SGD:大部分时候你向着全局最小值靠近,有时候你会远离最小值,因为那个样本恰好给你指的方向不对,因此随机梯度下降法是有很多噪声的,平均来看,它最终会靠近最小值,不过有时候也会方向错误,因为随机梯度下降法永远不会收敛,而是会一直在最小值附近波动。一次性只处理了一个训练样本,这样效率过于低下。
- mini-batch:实践中最好选择不大不小的 mini-batch,得到了大量向量化,效率高,收敛快。
首先,如果训练集较小,直接使用 batch 梯度下降法,这里的少是说小于 2000 个样本。一般的 mini-batch 大小为 64 到 512,考虑到电脑内存设置和使用的方式,如果 mini-batch 大小是 2 的 𝑛 次方,代码会运行地快一些。
3.6.2 调节 Batch_Size 对训练效果影响到底如何?
- Batch_Size 太小,模型表现效果极其糟糕 (error 飙升)。
- 随着 Batch_Size 增大,处理相同数据量的速度越快。
- 随着 Batch_Size 增大,达到相同精度所需要的 epoch 数量越来越多。
- 由于上述两种因素的矛盾, Batch_Size 增大到某个时候,达到时间上的最优。
由于最终收敛精度会陷入不同的局部极值,因此 Batch_Size 增大到某些时候,达到最终收敛精度上的最优。
为什么说神经网络是端到端的网络?
端到端学习 (end-to-end) 是一种解决问题的思路,与之对应的是多步骤解决问题,也就是将一个问题拆分为多个步骤分步解决,而端到端是由输入端的数据直接得到输出端的结果。
就是不要预处理和特征提取,直接把原始数据扔进去得到最终结果。
特征提取包含在神经网络内部,所以说神经网络是端到端的网络。
优点:
通过缩减人工预处理和后续处理,尽可能使模型从原始输入到最终输出,给模型更多可以根据数据自动调节的空间,增加模型的整体契合度。
缺点
- 它可能需要大量的数据。要直接学到这个 𝑥 到 𝑦 的映射,你可能需要大量 (𝑥, 𝑦) 数据。
- 它排除了可能有用的手工设计组件。
- 深度学习框架比较
现有的深度学习开源平台主要有 Caffe, PyTorch, MXNet, CNTK, Theano, TensorFlow, Keras, fastai 等。
平台 | 优点 | 缺点 |
---|---|---|
TensorFlow | 1. 功能很齐全,能够搭建的网络更丰富。 |
- 支持多种编程语言。
- 拥有强大的计算集群。
- 谷歌支持
- 社区活跃度高。
- 支持多 GPU。
7.TensorBoard 支持图形可视化。 | 1. 编程入门难度较大。 - 计算图是纯 Python 的,因此速度较慢
- 图构造是静态的,意味着图必须先被「编译」再运行 |
| Keras | 1.Keras 是 TensorFlow 高级集成 APi
2.Keras 是一个简洁的 API。 可以快速帮助您创建应用程序。 - 代码更加可读和简洁。
4.Keras 处于高度集成框架。 - 社区活跃。 | 1.Keras 框架环境配置比其他底层框架要复杂一些。
- 虽然更容易创建模型,但是面对复杂的网络结构时可能不如 TensorFlow。
- 性能方面比较欠缺。 |
| Pytorch | 1. 它可以在流程中更改体系结构。 - 训练神经网络的过程简单明了。
- 可以使用标准 Python 语法编写 for 循环语句。
- 大量预训练模型 | 1. 不够 TensorFlow 全面,不过未来会弥补。
2.PyTorch 部署移动端不是很好。 |
| MXNet | 1. 支持多语言。 - 文档齐全。
- 支持多个 GPU。
- 清晰且易于维护的代码。
- 命令式和符号式编程风格之间进行选择。 | 1. 不被广泛使用。
- 社区不够活跃。
- 学习难度大一些。 |
目前从招聘来说,公司使用 TensorFlow 的占大多数,毕竟 TensorFlow 的社区、性能、部署方面都是很强的,所以之后写的实例代码都使用 TensorFlow 来完成。
- softmax 分类器
6.1 什么是 softmax
在图像分类的情景中,softmax 分类器输出可以是一个图像类别的离散值,和线性回归不同的是,softmax 输出单元从一个变成了多个。
softmax 回归和线性回归一样将输入特征与权重做线性叠加。与线性回归的一个主要不同在于,softmax 回归的输出值个数等于标签里的类别数。 下图是用神经网络描绘了 softmax 回归,也是一个单层神经网络,由于每个输出 的计算都要依赖于所有的输入
,softmax 回归的输出层也是一个全连接层。
6.2 softmax 的计算
一个简单的办法是将输出值 当做预测类别是 i 的置信度,并将值最大的输出所对应的类别作为预测输出。例如,如果
分别为 0.1 ; 10 ; 0.1,由于
最大,那么预测类别为 2。
然而,直接使用输出层的输出会有两个问题:
- 由于输出层的输出值的范围不确定,我们难以直观上判断这些值得意义。
- 由于真实标签是离散值,这些离散值与不确定范围的输出值之间的误差难以衡量。
softmax 运算解决了以上两个问题。它通过下面的公式将输出值变换成值为正且和为 1 的概率分布:
%3D%5Cfrac%7Bexp(oi)%7D%7B%5Csum%7Bi%3D1%7D%5E%7Bn%7Dexp(o_i)%7D>)
6.3 交叉熵损失函数
我们已经知道,softmax 运算将输出变换成一个合法的类别预测分布。实际上,真实标签也可以用类别分布表达:
对于样本 i,我们构造向量 %7D%5Cin_%7B%7DR%5Eq>) ,使其第
%7D>) 个元素为 1,其余为 0。这样我们的训练目标可以设为使预测概率分布
%7D>) 尽可能接近真实的标签概率
%7D>)。
想要预测分类结果正确,我们其实并不需要预测概率完全等于标签概率,而平方损失则过于严格。改善这个问题的一个方法是使用更适合衡量两个概率分布差异的测量函数。其中,交叉熵 (cross entropy) 是一个常用的衡量方法:
%7D%2C%5Chat%7By%7D%5E%7B(i)%7D)%3D-%5Csum%7Bj%3D1%7D%5E%7Bq%7Dy_j%5E%7B(i)%7Dlog%7B%5Chat%7By%7D%7D_j%5E%7B(i)%7D%3D-log%7B%5Chat%7By%7D%7D%7By%5E%7B(i)%7D%7D%5E%7B(i)%7D>)
其中带下标的 %7D>) 是向量
%7D>) 中非 0 即 1 的元素。也就是说,交叉熵只关心对正确类别的预测概率,因为只要其值足够大,就可以确保分类结果正确。即最小化交叉熵损失函数等价于最大化训练数据集所有标签类别的联合预测概率。
- 神经网络实现
作者:@mantchs
GitHub:github.com/NLP-LOVE/ML…